【NLP论文分享 && QA问答】动态关联GNN建立直接关联,优化multi-hop推理(含源码)
点击下方链接🔗关注我们
引言
以知识图谱 (KG) 的形式使用外部知识源是问答模型的最新趋势。但是有时在提取的KG子图过程中会遗漏了节点和边的重要信息,导致对话失败。针对该问题,本文提出了一种新颖的图神经网络架构,称为动态相关图网络(DRGN)。DRGN 基于问答实体对给定的 KG 子图进行操作,并使用节点之间的相关性分数来动态建立新边,以学习图网络中的节点表示。
背景介绍
解决QA问题通常需要语言理解和人类常识知识。大规模预训练语言模型 (LM) 在许多 QA 基准测试中取得了成功。然而,当需要对外部知识进行推理时,LM 很难预测答案。因此,以知识图谱 (KG) 的形式明确使用外部知识源是问答模型的最新趋势。
1)提取的KG子图有时会遗漏实体之间的一些边,这打破了推理链; 2)问题的语义上下文和与答案的连接使用不当,例如,当问题中存在否定语,如no和not时,推理是有问题的。
上述「第一个问题」主要是由以下原因引起的。
首先,「知识图本来是不完善的」,没有包含所需的边。 然后,在构造子图时,为了减小图的大小,大多数模型选择出现在two-hop路径上的实体。因此,「在提取的KG子图中遗漏了一些中间概念(实体)节点和边」。在这种情况下,子图不包含完整的推理链。 最后,「当涉及的概念之间没有直接联系时,当前的模型往往无法对路径进行推理」。虽然在QA中找到推理链通常是具有挑战性的,但当KG是唯一的来源且存在缺失的边时,这个问题就更加关键了。回头看看上图,KG子图就忽略了吉他和演奏乐器之间的直接联系(绿色箭头)。
对于上述「第二个问题」,正如Lin等人所指出的,以前的模型对否定词不敏感,因此会预测相反的答案。「QA-GNN 模型是第一个处理负面问题的工作。QA-GNN 通过在图中添加 QA 全局节点,在一定程度上改进了否定下的推理,但是仍然不完善」。
为了解决上述问题,本文提出了一种新的架构,称为「动态关联图网络(DRGN)。DRGN旨在恢复缺失的边缘,并建立概念之间的直接联系,以促进multi-hop推理」。特别是,DRGN模型使用关系图网络模块,同时使用一个附加的关联矩阵来影响相邻节点的重要性。它可以潜在地恢复缺失的边,并在训练过程中根据KG中节点表示的相关性建立直接连接。该模块可以捕获遥远节点之间的连接,同时受益于现有的KG边缘。该模型直接基于通过内积运算计算的子图实体对之间的关联分数学习表示。在图神经网络的每一卷积层上,根据节点当前层的节点表示动态计算节点的内积,并基于该相关性测度构建邻域,形成相应的相关性矩阵。
动态关联图网络(DRGN)
下图是本文提出的动态相关图网络(DRGN)体系结构。DRGN包括四个模块:语言上下文编码器模块、KG子图构建模块、图神经网络模块和答案预测模块。
实验快照
「在两个不同的QA基准上评估DRGN的模型,其中CommonsenseQA、OpenbookQA」。这两个基准测试都附带一个外部知识图。我们将ConceptNet应用于这两个基准的外部知识图。
1、CommonsenseQA基准上各种模型的开发精度和测试精度。
推荐阅读
[1]【NLP论文分享 && 含源码】基于Prompting Seq2Seq的自动标签序列生成(清华AI研究院)
[3]【历年IJCAI论文下载 && 论文速递】无数据对抗蒸馏、垂直联合、预训练微调范式图神经网络(GNN)
[4]【NLP论文分享&&语言表示】有望颠覆Transformer的图循环神经网络(GNN)
论文&&源码
Title: Dynamic Relevance Graph Network for Knowledge-Aware Question Answering
Author: 密歇根州立大学
Paper:https://arxiv.org/pdf/2209.09947v1.pdf
Code:https://github.com/hlr/drgn